52 research outputs found

    Advanced Methods for Time Series Prediction Using Recurrent Neural Networks

    Get PDF
    Recurrent Neural Networks for Temporal Data Processing, Intech, pp. 15-36, ISBN 978-953-307-685-0

    Etat de l'art de la segmentation de maillage 3D par patchs surfaciques

    Get PDF
    National audienceLa segmentation de maillage 3D est une composante essentielle de nombreuses applications. Elle se décline en deux familles : la segmentation en patchs surfaciques et la segmentation en parties significatives. Dans cet article, nous traitons principalement de la segmentation de maillages 3D en patchs surfaciques et en proposons un état de l'art. Nous positionnons le contexte de ce type de segmentation et discutons des contributions les plus pertinentes

    Réflexions sur la mise en place d'une vérité terrain pour la segmentation de maillages polygonaux 3D en parties significatives

    Get PDF
    National audienceLa segmentation de maillages polygonaux 3D est un outil essentiel à de nombreuses applications. L'indexation, la reconnaissance des formes, la compression, la simplification ou encore les tatouages numériques sont quelques unes de ces applications. La segmentation de maillages polygonaux 3D se décline en deux familles : la segmentation en carreaux surfaciques (régions du maillage présentant certaines caractéristiques géométriques) et la segmentation en parties significatives. Cet article est axé sur la deuxième famille qui, à l'heure actuelle, ne dispose pas de mesure précise pour déterminer l'efficacité des méthodes de segmentation. La vérité terrain est généralement utilisée sur les images 2D afin de comparer la segmentation d'un expert à celle obtenue à partir d'un algorithme. Nous discutons ici de l'intérêt d'une vérité terrain pour la segmentation de maillages polygonaux 3D et de sa mise en oeuvre

    Convenio Marco con L'ecole Nationale D'Ingenieurs De Brest, Francia.

    No full text
    El presesente convenio tiene por objeto establecer los vínculos necesarios para lograr el desarrollo científico, intelectual y cultural de personal académico y de los estudiantes de ambas Instituciones

    Recurrent Neural Networks for Local Models Prediction

    No full text
    International audience"Local models" (Walter, J., et al. International Joint Conference on Neural Networks, vol. 1. (1990) 589-594), consists on dividing the data into homogeneous clusters by Vector Quantization (VQ (Gray, R. M., and Neuhoff, D.L. IEEE Trans. Inf. Theory 44(6) (1998) 2325-2383)) to simplify the prediction task on each cluster and mostly inspired from the Self-Organizing Maps algorithm (SOM (Kohonen, T. Self-Organization and associative memory, 3rd edn. (1989))). Since recurrent neural networks have demonstrated in many times a better results and specially for chaotic time series (Boné, R. Recurrent Neural Networks for Time Series Forecasting. (2000)), we propose in this paper a method to use the Recurrent Neural Networks in the local approach

    Boosting Multi-Step-Ahead Forecasting with Recurrent Neural Networks

    No full text
    International audienceA common problem with time series forecasting models is the low accuracy of long term forecasts. However reliable multi-step-ahead (MS) time series prediction has many important applications and is often the intended outcome, most of the published literature usually considers single-step-ahead (SS) time series prediction. The main reason for this is the increased difficulty of the problems requiring MS prediction and the fact that the results obtained by simple extensions of techniques developed for SS prediction are often disappointing. To improve upon the obtained performance, we can adapt general procedures that were found to enhance the precision of various basic models. One such procedure is known under the name of boosting. Following this idea, we evaluate on MS time series forecasting problems an algorithm for improving the accuracy of recurrent neural networks (RNNs). The improvement is achieved by combining a large number of RNNs, each of them is generated by training on a different set of examples. This algorithm allows concentrating the training on difficult examples but, unlike the original algorithm, by taking into account all the available examples.We study the behavior of our method applied on three time series of reference: a natural one and two synthetic chaotic ones. We compare our algorithm to numerous other methods applied to the same datasets, including local approaches. The experimental results which were obtained on benchmark problems show that boosting recurrent neural networks greatly improve MS forecasting, keeping low standard deviation. The boosting effect proved to be dependent on the presence of long-range dependencies. We find that the local approaches keep their advantage when compared to our method, if enough data are available. If not, our algorithm boosts prediction performance of global approaches relying on RNNs

    Predicting Chaotic Time Series by Boosted Recurrent Neural Networks

    No full text
    International audienceThis paper discusses the use of a recent boosting algorithm for recurrent neural networks as a tool to model nonlinear dynamical systems. It combines a large number of RNNs, each of which is generated by training on a different set of examples. This algorithm is based on the boosting algorithm where difficult examples are concentrated on during the learning process. However, unlike the original algorithm, all examples available are taken into account. The ability of the method to internally encode useful information on the underlying process is illustrated by several experiments on well known chaotic processes. Our model is able to find an appropriate internal representation of the underlying process from the observation of a subset of the states variables. We obtain improved prediction performances

    Segmentation 3D hiérarchique par ligne de partage des eaux

    No full text
    International audienceCet article présente une méthode de segmentation 3D rapide et robuste en se basant sur les techniques 2D hiérarchiques et par marqueurs de la Ligne de Partage des Eaux (LPE). Ces méthodes utilisent l'algorithme par Files d'Attentes Hiérarchiques (FAH) sans biais de S. Beucher qui a été adapté afin de calculer de manière rapide et exacte la LPE des surfaces 3D triangulées. Une évaluation des méthodes actuelles de calcul de la courbure discrète a montré que les algorithmes de LPE hiérarchiques (cascades) donnent de meilleurs résultats en utilisant la matrice de covariance ou le Kmax. L'utilisation de l'algorithme des cascades en 3D fonctionne de manière plus robuste et plus rapide en utilisant le graphe des points selles plutôt que la technique de modification d'homotopie. Cependant, on constate avec cette méthode que trop de fusions sont réalisées d'un niveau de la hiérarchie à l'autre. C'est pourquoi un algorithme hybride, combinant l'approche par cascades et par fusions hiérarchisées a été proposé. Il permet, sur un critère de nombre de régions souhaitées, d'obtenir une segmentation rapide et efficace des modèles 3D surfaciques. Cet algorithme s'adapte bien aux problématiques de segmentation dans l'industrie pour lesquelles l'utilisateur a une idée du nombre de régions nécessaires pour caractériser un modèle donné

    Améliorer la prévision multipas par réseaux de neurones récurrents

    No full text
    International audienceNous évaluons sur le problème de la prévision multipas un algorithme de boosting pour les réseaux de neurones récurrents (RNRs). Cet algorithme combine un grand nombre de RNRs, chacun d'entre eux étant généré en apprenant sur une version différente de l'ensemble d'apprentissage d'origine. Ces versions sont obtenues selon une variante de la méthode du boosting, qui permet de concentrer l'apprentissage sur les exemples difficiles mais, à la différence de l'algorithme d'origine, en prenant en compte tous les exemples disponibles. Nous l'appliquons au problème de la prévision pour différents horizons de trois séries temporelles de référence en testant à chaque fois trois fonctions de coût différentes et en variant les valeurs du paramètre principal. Nous comparons notre algorithme avec l'algorithme Back-Propagation Through Time (BPTT) et avec d'autres méthodes appliquées sur les mêmes ensembles de données, dont des approches locale
    • …
    corecore